Материалы по тегу: периферийные вычисления

26.02.2024 [14:47], Сергей Карасёв

Мини-компьютер BrainChip Akida Edge AI Box оснащён двумя нейроморфными ИИ-чипами AKD1000

Компания BrainChip, по сообщению ресурса CNX-Software, начала приём заказов на компьютер небольшого форм-фактора Akida Edge AI Box, разработанный в партнёрстве с VVDN Technologies. Новинка предназначена для выполнения ИИ-задач на периферии.

В основу положен процессор NXP i.MX 8M Plus Quad с четырьмя ядрами Arm Cortex-A53, функционирующими на тактовой частоте до 1,8 ГГц. В состав чипа входят графические блоки Vivante GC7000UL 3D GPU и Vivante GC520L 2D GPU, а также модуль NPU с производительностью до 2,3 TOPS.

В оснащение мини-ПК включены два нейроморфных чипа BrainChip Akida AKD1000 (интерфейс PCIe) с ядром реального времени Arm Cortex-M4 с тактовой частотой 300 МГц. Они предназначены для ускорения операций, связанных с ИИ и машинным обучением. Объём оперативной памяти LPDDR4 составляет 4 Гбайт. Есть флеш-модуль eMMC вместимостью 32 Гбайт, слот для карты microSD, адаптер Wi-Fi 5 (802.11n/ac; 2,4 и 5 ГГц) и двухпортовый сетевой контроллер 1GbE.

 Источник изображения: BrainChip

Источник изображения: BrainChip

Возможно кодирование и декодирование видеоматериалов в формате 1080p60 (H.265 и H.264). Предусмотрены разъёмы USB 3.0 Type-A и USB 2.0 Micro-B. Габариты составляют 110 × 110 × 56 мм. Диапазон рабочих температур — от 0 до +50 °C. Применяется программная платформа на базе ядра Linux 6.1. Компьютер предлагается по ориентировочной цене $800.

Постоянный URL: http://servernews.ru/1100798
21.02.2024 [13:50], Сергей Карасёв

Supermicro представила ИИ-серверы для периферийных вычислений

Компания Supermicro анонсировала новые серверы, предназначенные для развёртывания ИИ-приложений на периферии. Дебютировали системы с процессорами Intel Xeon Emerald Rapids, поддерживающие установку различных ускорителей NVIDIA, включая H100.

Одной из новинок стал сервер SYS-621C-TN12R семейства CloudDC, выполненный в форм-факторе 2U. Он рассчитан на установку двух чипов Xeon в исполнении Socket E (LGA-4677) с показателем TDP до 350 Вт. Доступны 16 слотов для модулей DDR5-5600 суммарным объёмом до 4 Тбайт. Для ускорителей типоразмера FHHL доступны два слота PCIe 5.0 x16. Есть 12 отсеков для LFF-накопителей NVMe/SATA/SAS и два коннектора для SSD формата M.2 2280 с интерфейсом PCIe 5.0 x4.

 Источник изображений: Supermicro

Источник изображений: Supermicro

Представлен и 1U-сервер SYS-111E-FWTR высокой плотности. Допускается использование одного процессора Xeon в исполнении Socket E с величиной TDP до 350 Вт и восьми модулей DDR5-5600 (до 2 Тбайт). Имеются два слота PCIe 5.0 x16 FHFL, один слот PCIe 5.0 x16 LP, один коннектор M.2 22110/2280 (PCIe 3.0 x2; NVMe) и два посадочных места для SFF-накопителей с интерфейсом SATA-3. Данная модель, как отмечается, подходит для широкого спектра сетевых и периферийных приложений.

Схожими характеристиками обладает компактный сервер SYS-E403-13E-FRN2T в форм-факторе блочного ПК: это устройство поддерживает монтаж трёх ускорителей PCIe 5.0 x16 FHFL.

Ещё одна новинка — сервер SYS-211E-FRN2T сверхмалой глубины, составляющей 300 мм. От двух предыдущих моделей он отличается тем, что снабжён двумя коннекторами для SSD типоразмера M.2 2280/22110 (NVMe), а слоты расширения выполнены по схеме 1 × PCIe 5.0 x16 или x8 HHHL, 1 × PCIe 5.0 x8 HHHL и 2 × PCIe 5.0 x16 FHHL.

Универсальная система SYS-211SE-31D, в свою очередь, представляет собой трёхузловой сервер стандарта 2U. Каждый узел допускает установку одного чипа Xeon в исполнении Socket E, восьми модулей DDR5-5600, двух ускорителей PCIe 5.0 x16 FHHL, одной карты PCIe 5.0 x16 HHHL и двух модулей M.2 2280/22110 (NVMe).

Наконец, дебютировал компактный IoT-сервер SYS-E300-13AD с поддержкой одного процессора Intel Core в исполнении LGA-1700 с величиной TDP до 65 Вт. Предусмотрены два слота для модулей памяти DDR4-3200 суммарным объёмом до 64 Гбайт, один разъём PCIe 5.0 x16 для низкопрофильной карты расширения, одно посадочное место для SFF-накопителя SATA, по одному коннектору М.2 E-Key 2230 (PCIe 3.0 x1 / USB2.0) и М.2 M-Key 2280 (PCIe 4.0 x4; NVMe). Все анонсированные серверы оборудованы воздушным охлаждением.

Постоянный URL: http://servernews.ru/1100566
15.02.2024 [12:41], Сергей Карасёв

Akamai представила сервис Gecko — облачные вычисления на периферии

CDN-провайдер Akamai Technologies объявил о запуске платформы Gecko (Generalized Edge Compute), которая позволяет использовать облачные вычисления на периферии. Сервис призван помочь компаниям улучшить качество обслуживания клиентов путём перемещения своих рабочих нагрузок ближе к конечным пользователям.

Проект Gecko является частью стратегии Akamai по её трансформации в распределённого облачного провайдера. По сути, речь идёт о формировании альтернативной облачной инфраструктуры, отвечающей потребностям высокопроизводительных приложений — с небольшими задержками и гибкой масштабируемостью.

 Источник изображения: Akamai

Источник изображения: Akamai

Gecko предусматривает интеграцию облачных сервисов в развитую CDN-сеть Akamai. Отмечается, что традиционные современные архитектуры предусматривают разделение облачных и периферийных платформ. В свою очередь, Gecko переносит «тяжёлые» нагрузки, которые обычно обрабатываются в крупных дата-центрах, на периферию. Благодаря этому полнофункциональные вычисления становятся возможными в сотнях ранее недоступных локаций, что позволит клиентам переносить ресурсоёмкие приложения ближе к конечным пользователям.

В начале 2023 года Akamai запустила платформу Connected Cloud на базе Linode. Она представляет собой более распределённую альтернативу сервисам AWS или Azure. Сеть Akamai насчитывает приблизительно 4100 точек присутствия по всему миру. Эта инфраструктура поможет в реализации проекта Gecko.

 Источник изображения: Akamai

Источник изображения: Akamai

Платформа Gecko будет развёрнута три этапа. На первом планируется внедрении вычислений с поддержкой виртуальных машин в 100 городах к концу 2024 года. На данный момент компания уже развернула регионы Gecko в таких местах, как Гонконг, Куала-Лумпур (Малайзия), Керетаро (Мексика), Йоханнесбург (Южная Африка), Богота (Колумбия), Денвер (Колорадо), Хьюстон (Техас), Гамбург (Германия) и Марсель (Франция). В конечном итоге Akamai намерена распространить Gecko на сотни городов по всему миру.

Вторая фаза Gecko начнётся позднее в нынешнем году, когда Akamai добавит поддержку контейнеров. На третьем этапе будет реализована поддержка автоматизированной оркестрации рабочих нагрузок, что позволит разработчикам развёртывать распределённые высокопроизводительные приложения.

Среди ключевых рабочих нагрузок для Gecko названы ИИ, многопользовательские игры, а также социальные сети и потоковая передача мультимедийных материалов. Сеть также может использоваться для таких задач, как иммерсивная розничная торговля, пространственные вычисления, потребительский и промышленный Интернет вещей.

Постоянный URL: http://servernews.ru/1100296
24.01.2024 [14:50], Руслан Авдеев

Обновлённый космический суперкомпьютер HPE Spaceborne-2 готов к отправке на МКС

На следующей неделе планируется запуск на Международную космическую станцию (МКС) обновлённого варианта специального вычислительного модуля HPE Spaceborne Computer-2. Как сообщает Национальная лаборатория МКС, это коммерческая версия суперкомпьютера из серийных компонентов, созданная на основе серверов семейств HPE EdgeLine и ProLiant.

Организаторами запуска выступают NASA, Northrop Grumman и SpaceX. Старт должен состояться 29 января 2024 года в рамках миссии NG-20 — борту корабля Northrop Grumman Cygnus планируется доставить на станцию различные научные материалы, оборудование и компоненты. Одним из грузов будет и обновлённая версия Spaceborne-2, ранее отправленного на МКС в феврале 2021 года и вернувшегося на Землю 11 января 2023. Первый компьютер серии Spaceborne отправили на МКС 14 августа 2017 года, возвращение состоялось 4 июня 2019.

 Источник изображения: NASA

Источник изображения: NASA

По данным Datacenter Dynamics, в состав системы всё ещё входят x86-серверы HPE Edgeline EL4000 с одним GPU и HPE DL360 Gen10. Обновлённая система протестирована HPE и передана NASA. Всего по требованию NASA пришлось внести 516 корректировок. Например, HPE в сотрудничестве с KIOXIA оснастила систему дополнительным хранилищем. Суперкомпьютер поможет продолжающимся на МКС исследованиям, обеспечив более быструю обработку наблюдений со станции за Землёй и более эффективный мониторинг здоровья астронавтов.

Постоянный URL: http://servernews.ru/1099203
10.01.2024 [19:40], Сергей Карасёв

Новые чипы Ambarella привнесут возможности генеративного ИИ в периферийные устройства

Компания Ambarella сообщила о том, что её SoC обеспечат поддержку генеративного ИИ на периферии. Ожидается, что это позволит расширить возможности множества систем и приложений, включая робототехнику и средства видеоаналитики. Отмечается, что по сравнению с ускорителями на базе GPU и другими специализированными решениями, чипы Ambarella представляют собой полноценные «системы на чипе», которые обеспечивают до трёх раз более высокую энергоэффективность на каждый токен.

Изначально Ambarella обеспечит оптимизированные возможности генеративного ИИ на своих SoC среднего и высокого классов. Это, в частности, изделие CV72 для устройств с энергопотреблением до 5 Вт. Кроме того, функции генеративного ИИ будут поддерживать чипы новой серии N1 с «производительностью серверного уровня» при энергопотреблении до 50 Вт.

 Источник изображения: Ambarella

Источник изображения: Ambarella

Чипы N1 основаны на архитектуре Ambarella CV3-HD, изначально разработанной для приложений автономного вождения. Утверждается, что изделие N1 способно обрабатывать модель Llama2-13B с выводом до 25 токенов в секунду в однопоточном режиме при потребляемой мощности менее 50 Вт.

Все изделия Ambarella используют новую платформу для разработчиков Cooper. Чтобы ускорить вывод конечных продуктов на рынок, Ambarella предварительно портировала и оптимизировала популярные большие языковые модели, такие как Llama-2 и LLava.

Постоянный URL: http://servernews.ru/1098543
24.12.2023 [00:14], Руслан Авдеев

Семь компаний из Нидерландов присоединились к проекту ЕС по созданию энергоэффективных периферийных ЦОД

Консорциум, объединяющий семь нидерландских компаний и исследовательских структур выиграл грант на проект, предусматривающий создание эффективных ЦОД для периферийных вычислений. Как сообщает Datacenter Dynamics, т.н. Modular Integrated Sustainable Datacenter project (MISD) получил «зелёный свет» у чиновников Евросоюза и Министерства экономики и климата Нидерландов.

По имеющимся данным, проект получит €70 млн от местного правительства. В консорциум входят специалист по системам жидкостного охлаждения — компания Asperitas, а также BetterBe, Deerns, Eurofiber, NBIP (National Internet Providers Management Organization), TNO и Университет Твенте.

Проект MISD стал частью программы European IPCEI (Important Project of Common European Interest – Cloud Infrastructure and Services), которая получит €1,2 млрд на разработку общей облачной инфраструктуры Евросоюза. В 2024–2029 гг. в рамках MISD необходимо будет построить модульный, экоустойчивый, безопасный ЦОД для периферийных вычислений. При этом выбросы углекислого газа необходимо снизить вдвое в сравнении с предлагаемыми сегодня решениями.

 Источник изображения: Callum Parker/unsplash.com

Источник изображения: Callum Parker/unsplash.com

Как заявляют в Asperitas, MISD стал плодом многолетнего сотрудничества, направленного на создание энергетически эффективных ЦОД. Ожидается, что выделение средств позволит стране стать хабом для разработки дата-центров нового поколения. Сама Asperitas обеспечивает системы иммерсионного охлаждения, BetterBe является SaaS-провайдером, Deerns представляет собой инженерную компанию. Наконец, Eurofiber — это провайдер оптических сетей.

В Asperitas намерены добиться «оптимальных результатов» от применения жидкостного охлаждения, а в BetterBe заявили, что намерены внести вклад в разработку и реализацию модульных энергосберегающих дата-центров с распределёнными облачными платформами и изучить возможности более оптимального использования аппаратного обеспечения. Eurofiber обеспечит лабораторию и географически распределённую среду для испытаний, а NBIP будет изучать возможности повышения безопасности и доступности новой облачной инфраструктуры, например, с помощью распределённой защиты от DDoS-атак.

Постоянный URL: http://servernews.ru/1097914
18.12.2023 [13:14], Сергей Карасёв

MSI представила серверы начального уровня на процессорах Intel Xeon E-2400

Компания MSI анонсировала свои первые продукты, поддерживающие процессоры Intel Xeon E-2400. Дебютировали материнская плата D1500, а также серверы S1103 и E2103, предназначенные для сферы малого и среднего бизнеса, периферийных вычислений и пр. Новинки относятся к начальному уровню.

 Источник изображений: MSI

Источник изображений: MSI

Плата D1500 выполнена в форм-факторе micro-ATX. Поддерживается установка чипа в исполнении LGA 1700: напомним, изделия Xeon E-2400 содержат до восьми ядер Raptor Cove, имеют два канала памяти DDR5 и позволяют использовать до 16 линий PCIe 5.0. Величина TDP не превышает 95 Вт.

Материнская плата наделена четырьмя слотами для ОЗУ-модулей DDR5-4800 UDIMM и двумя разъёмами PCIe. Поддерживаются до восьми портов SATA-3; кроме того, можно установить два SSD формата М.2 2280/22110 (NVMe). В оснащение также включён двухпортовый сетевой контроллер 10GbE.

 Источник изображений: MSI

Источник изображений: MSI

Модель D1500 является основой стоечных серверов S1103 и E2103 типоразмера 1U и 2U соответственно. Первый из них допускает установку четырёх LFF-накопителей и двух внутренних SFF-устройств (все с интерфейсом SATA-3). Этот экономичный сервер хорошо подходит для таких задач, как веб-хостинг, периферийные вычисления, облачные приложения, хранение данных и пр.

В свою очередь, E2103 представляет собой edge-сервер стандарта 2U, оборудованный одним слотом PCIe 5.0 и двумя коннекторами M.2 NVMe. Во фронтальной части располагаются шесть отсеков для SFF-накопителей SATA. В качестве опции предлагается возможность установки четырёх устройств U.2 NVMe.

Постоянный URL: http://servernews.ru/1097613
17.12.2023 [22:50], Руслан Авдеев

На связи с космосом: Armada привлекла $55 млн на создание автономных микро-ЦОД со Starlink-подключением

Занятая созданием решений в сфере периферийных вычислений компания Armada объявила о привлечении $55 млн на свои разработки в соответствующей нише. По данным Datacenter Dynamics, также речь идёт об инвестициях в платформу управления такими вычислениями. Для ЦОД компании предусмотрено использование спутниковой связи.

Раунд финансирования возглавили Founders Fund, Lux Capital, Shield Capital и 8090 Industries, также участие приняли Contrary, Felicis, Koch Real Estate Investments, Marlinspike, Valor Equity Partners, 8VC и другие инвестиционные компании. В январе венчурные инвесторы Founders Fund, Lux Capital, и Shield Capital уже возглавили посевной раунд инвестиций в Armada объёмом $15 млн. Представители некоторых инвесторов уже вошли в состав совета директоров Armada.

Armada предлагает защищённые автономные дата-центры Galleon в модульным исполнении со спутниковым подключением к Starlink, размещаемых в стандартных 20- и 40-футовых грузовых контейнерах (на 3 и 6 стоек соответственно). Как заявляют в Armada, ИИ-системы различного характера и назначения совершили революцию в повседневной жизни и в бизнесе, но далеко не у всех имеются равный доступ к ним. Во многих регионах отсутствует даже базовый доступ в Сеть, из-за чего многие структуры не могут по-настоящему эффективно применять свои данные.

 Источник изображения: Armada

Источник изображения: Armada

Как заявляют в самой Armada, в сфере периферийных решений генерируются огромные объёмы данных, но им не находится практически никакого применения. В компании утверждают, что набрали лучшую команду для того, чтобы исправить положение, а инвесторы и советники поддержат начинания бизнеса. Пока, по информации Forbes, у Armada фактически нет клиентов, кроме горнодобывающей Nexa Resources, совместно с которой проводятся испытания для «проверки концепции». В целом стартап настроен на работы в сфере обороны и добычи полезных ископаемых.

Своей основной миссией Armada назвала устранение цифрового неравенства. В кругах инвесторов уверены, что Armada сыграет ключевую роль в удовлетворении растущих потребностей в индустриальном Интернете вещей для производственных компаний и промышленных приложений. Вероятное сотрудничество со SpaceX пока не комментируется. Ранее в Armada заявляли, что уже наладили взаимодействие с компанией Илона Маска (Elon Musk).

Тем временем Microsoft предложила собственный модульный контейнерный ЦОД Azure MDC с опциональным подключением к сети Starlink. В сентябре «ЦОД на колёсах» со спутниковым подключением для формирования сети 5G и периферийных вычислений предложил американский телеком-оператор Verizon. А у AWS есть «тактический» микро-ЦОД.

Постоянный URL: http://servernews.ru/1097599
15.12.2023 [13:00], Сергей Карасёв

Giga Computing представила edge-серверы с процессорами Intel Xeon E-2400

Компания Giga Computing (Gigabyte) анонсировала новые серверы типоразмера 1U, предназначенные для периферийных вычислений, веб-хостинга и бизнес-приложений. В основу новинок положены процессоры Intel Xeon E-2400, насчитывающие до восьми вычислительных ядер (показатель TDP — до 95 Вт).

В частности, дебютировала модель E133-X10 уменьшенной глубины. Это решение ориентировано на edge-задачи. Устройство может применяться в помещениях с ограниченным пространством. Сервер допускает установку двух карт FHFL PCIe 5.0 x16/8 и одной карты FHHL PCIe 4.0 x4, двух накопителей SFF с интерфейсом SATA-3 и SSD формата M.2 с интерфейсом PCIe 4.0 x4.

Кроме того, анонсированы серверы R133-X10, R133-X11 и R133-X13. Они различаются организацией подсистемы хранения данных на основе накопителей SFF, LFF и М.2, а также возможностями в плане установки карт расширения (см. таблицу с характеристиками ниже). Все перечисленные устройства комплектуются двумя блоками питания мощностью 550 Вт с сертификатом 80 Plus Platinum или 800 Вт с сертификатом 80 Plus Platinum/Titanium.

 Источник изображений: Gigabyte

Источник изображений: Gigabyte

Представлены также серверы R123-X00 и R113-X30 с возможностью установки одной карты FHHL PCIe 5.0 x16 и SSD формата M.2 с интерфейсом PCIe 4.0 x4. Первая из этих моделей поддерживает четыре накопителя SFF/LFF с интерфейсом SATA-3, вторая — два. Кроме того, R123-X00 может нести на борту две LP-карты PCIe 4.0 x4. Установлен блок питания на 400 Вт с сертификатом 80 Plus Gold.

Все новинки оснащены контроллером ASPEED AST2600, двумя сетевыми портами 1GbE (версия R133-X11 имеет дополнительно два порта 10GbE), четырьмя слотами для модулей оперативной памяти DDR5-4400 ECC / non-ECC UDIMM, портами USB 3.2 Gen1 и Mini-DP. Применено воздушное охлаждение.

Постоянный URL: http://servernews.ru/1097509
15.12.2023 [00:30], Алексей Степин

Intel представила процессоры Xeon D-1800/2800 и E-2400 для edge-систем и серверов начального уровня

Наряду с анонсом процессоров Xeon Scalable пятого поколения компания Intel обновила и модельные ряды Xeon D и Xeon E. Изменений и нововведений в представленных чипах достаточно много. Так, модельный ряд Xeon D по традиции поделён на две ветви: Xeon D-1800 и Xeon D-2800.

Уже сериии Xeon D-1700 и D-2700 были адаптированы для работы в серверах периферийных вычислений и в составе сетевого оборудования. Напомним ключевые моменты:

  • Интегрированный 100GbE-контроллер с RDMA iWARP/RoCE v2;
  • Интегрированный коммутатор и обработчик пакетов у Xeon D-2700;
  • До 32 линий PCI Express 4.0;
  • Наличие Intel QAT, SGX и TME;
  • Поддержка AVX-512, в том числе VNNI/DL Boost;
  • Поддержка технологий TSN/TCC, критичных для систем реального времени.
 Источник: Intel via ServeTheHome

Источник: Intel via ServeTheHome

Всё это характерно и для новых Xeon D-1800 и D-2800, ведь в их основе лежит прежняя архитектура Ice Lake-D. Речь всё ещё идёт о сочетании DDR4 и PCI Express 4.0, однако улучшения всё же есть: оптимизация техпроцесса позволила довести максимальное количество ядер до 22 против 20 у предыдущих моделей при неизменном теплопакете. Небольшой прирост производительности тоже есть — примерно 1,12-1,15х у старшей модели Xeon D-2800. Кроме того, процессоры Xeon D-1800, наконец, получили поддержку двух 100GbE-портов.

 Источник: Intel

Источник: Intel

Одновременно с анонсом новых Xeon D состоялся анонс серии Xeon E-2400, которая заменит Xeon E-2300. Изменений здесь существенно больше. Во-первых, платформа перебралась с LGA 1200 на LGA 1700, а на смену ядрам Cypress Cove пришли Raptor Cove. И хотя E-ядер в составе CPU нет, Intel почему-то решила не активировать поддержку AVX-512. Во-вторых, существенный апгрейд претерпела подсистема памяти: вместо двух каналов DDR4-3200 теперь доступна пара каналов DDR5-4800.

Наконец, Xeon E-2400 получили поддержку PCI Express 5.0 — из 20 имеющихся процессорных линий 16 теперь способны работать именно в этом режиме. Подросла версия DMI с 3.0 до 4.0, а PCH новой платформы теперь предоставляет 20 линий PCIe 4.0 и 8 линий PCIe 3.0. Заодно с трёх до пяти выросло количество портов USB 3.2 Gen 2x2 (20 Гбит/с).

 Источник: Intel via ServeTheHome

Источник: Intel via ServeTheHome

Максимальное число ядер в новой серии Xeon E осталось прежним — их всё ещё восемь, но благодаря существенно более быстрой памяти и использованию техпроцесса Intel 7 Ultra производительность новинок в среднем в 1,3 раза выше, чем у предшественников. Базовая частота подросла до 3,5 ГГц, в турборежим частота доходит до 5,6 ГГц, но при этом теплопакет не выходит за рамки 95 Вт. Нацелены Intel Xeon E-2400 на рынок серверов и облачных систем начального уровня.

Постоянный URL: http://servernews.ru/1097496
Система Orphus